AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
Anthropic:Agents 的设计之道与年度总结

Anthropic:Agents 的设计之道与年度总结

Anthropic:Agents 的设计之道与年度总结

在过去的一年里,Anthropic 在构建 LLM 和 agents 这件事情上,与多个行业的数十个团队有过合作。

来自主题: AI资讯
7868 点击    2024-12-23 15:37
人会逆向思维,LLM也可以?DeepMind研究表明还能提升推理能力

人会逆向思维,LLM也可以?DeepMind研究表明还能提升推理能力

人会逆向思维,LLM也可以?DeepMind研究表明还能提升推理能力

人能逆向思维,LLM 也可以吗?北卡罗来纳大学教堂山分校与谷歌最近的一项研究表明,LLM 确实可以,并且逆向思维还能帮助提升 LLM 的正向推理能力!

来自主题: AI技术研报
6260 点击    2024-12-21 11:17
CMU把具身智能的机器人给越狱了

CMU把具身智能的机器人给越狱了

CMU把具身智能的机器人给越狱了

很多研究已表明,像 ChatGPT 这样的大型语言模型(LLM)容易受到越狱攻击。很多教程告诉我们,一些特殊的 Prompt 可以欺骗 LLM 生成一些规则内不允许的内容,甚至是有害内容(例如 bomb 制造说明)。这种方法被称为「大模型越狱」。

来自主题: AI资讯
7213 点击    2024-12-19 15:56
USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了

USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了

USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了

LLM 强大的语言能力,使其被广泛部署于 LLM 应用系统(LLM-integrated applications)中。此时,LLM 需要访问外部数据(如文件,网页,API 返回值)来完成任务。

来自主题: AI技术研报
5037 点击    2024-12-18 09:36
田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

一般而言,LLM 被限制在语言空间(language space)内进行推理,并通过思维链(CoT)来表达推理过程,从而解决复杂的推理问题。

来自主题: AI技术研报
6123 点击    2024-12-12 10:19
AI Coding 最全图谱:Agent 将如何颠覆软件

AI Coding 最全图谱:Agent 将如何颠覆软件

AI Coding 最全图谱:Agent 将如何颠覆软件

LLM 作为推理引擎,coding 是最好的应用场景:代码的逻辑比自然语言更清晰,执行的结果能由 AI 自动化验证。因此我们看到从 Sonnet 3.5 到 o1 pro,每一次模型能力的提升都会反映在 coding 能力的提升上,这一领域的应用进步就尤其显著。

来自主题: AI资讯
6926 点击    2024-12-11 14:33
11月中国AI大模型平台排行榜

11月中国AI大模型平台排行榜

11月中国AI大模型平台排行榜

有研究预计,如果 LLM 保持现在的发展势头,预计在 2028 年左右,已有的数据储量将被全部利用完。届时,基于大数据的大模型的发展将可能放缓甚至陷入停滞。

来自主题: AI资讯
6587 点击    2024-12-10 11:38
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

大语言模型(LLM)在各种任务上展示了卓越的性能。然而,受到幻觉(hallucination)的影响,LLM 生成的内容有时会出现错误或与事实不符,这限制了其在实际应用中的可靠性。

来自主题: AI技术研报
8325 点击    2024-12-02 14:27
如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

Fine-tuning理论上很复杂,但是OpenAI把这个功能完善到任何一个人看了就能做出来的程度。我们先从原理入手,你看这张图,左边是Pre-trained LLM (预训练大模型模型),也就是像ChatGPT这样的模型;右边是Fine-tuned LLM (微调过的语言大模型),中间就是进行微调的过程,它需要我们提供一些「ChatGPT提供不了但是我们需要的东西」。

来自主题: AI技术研报
8745 点击    2024-12-01 10:56
GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

LLM 规模扩展的一个根本性挑战是缺乏对涌现能力的理解。特别是,语言模型预训练损失是高度可预测的。然而,下游能力的可预测性要差得多,有时甚至会出现涌现跳跃(emergent jump),这使得预测未来模型的能力变得具有挑战性。

来自主题: AI技术研报
8242 点击    2024-11-30 16:51